由于神经操作员能够在功能空间之间近似高维参数图,因此最近引起了重大关注。目前,在神经操作员文献中仅解决了参数函数近似。在这项工作中,我们调查将参数导数信息纳入神经操作员培训中;该信息可以改善功能近似值,此外,它可用于改善衍生物相对于参数的近似值,这通常是高维外环问题的可扩展解决方案的关键(例如,贝叶斯逆问题)。参数雅各布信息由于其高维度而正式棘手,可以正式地合并,以解决我们基于减少的SVD,随机草图和减少基础替代物的使用提出的这种关注。所有这些策略仅需要$ O(r)$ jacobian动作来构建样本雅各布数据,并允许我们减少与雅各布培训相关的线性代数和内存成本,从输入和输出维度的产品中降低到$ o。 (r^2)$,其中$ r $是与缩小技术相关的维度。参数PDE问题的数值结果表明,在训练问题中添加导数信息可以显着改善参数图近似值,尤其是在几乎没有数据的情况下。与参数图相比,当雅各布动作相比便宜时,可以在经济上代替参数地图数据。此外,我们表明,随着Jacobian培训数据的引入,Jacobian误差近似显着改善。该结果为在外环算法中使用衍生知识的神经操作员(恐龙)打开了大门,他们可以通过重复评估来摊销额外的培训数据成本。
translated by 谷歌翻译
通常,层析成像是一个不适合的反问题。通常,从断层扫描测量中获得了拟距对象的单个正则图像估计。但是,可能有多个与相同的测量数据一致的对象。生成此类替代解决方案的能力很重要,因为它可以实现成像系统的新评估。原则上,这可以通过后采样方法来实现。近年来,已经采用了深层神经网络进行后验采样,结果令人鼓舞。但是,此类方法尚未用于大规模断层成像应用。另一方面,经验抽样方法在大规模成像系统上可能是可行的,并且可以对实际应用实现不确定性量化。经验抽样涉及在随机优化框架内求解正规化的逆问题,以获得替代数据一致的解决方案。在这项工作中,提出了一种新的经验抽样方法,该方法计算了与同一获得的测量数据一致的层析成像逆问题的多个解决方案。该方法通过在基于样式的生成对抗网络(stylegan)的潜在空间中反复解决优化问题的运行,并受到通过潜在空间探索(PULSE)方法的照片启发,该方法是为超分辨率任务开发而成的。通过涉及两种程式化的层析成像模式的数值研究来证明和分析所提出的方法。这些研究确定了该方法执行有效的经验抽样和不确定性定量的能力。
translated by 谷歌翻译
Iterative regularization is a classic idea in regularization theory, that has recently become popular in machine learning. On the one hand, it allows to design efficient algorithms controlling at the same time numerical and statistical accuracy. On the other hand it allows to shed light on the learning curves observed while training neural networks. In this paper, we focus on iterative regularization in the context of classification. After contrasting this setting with that of regression and inverse problems, we develop an iterative regularization approach based on the use of the hinge loss function. More precisely we consider a diagonal approach for a family of algorithms for which we prove convergence as well as rates of convergence. Our approach compares favorably with other alternatives, as confirmed also in numerical simulations.
translated by 谷歌翻译
Modern machine learning pipelines are limited due to data availability, storage quotas, privacy regulations, and expensive annotation processes. These constraints make it difficult or impossible to maintain a large-scale model trained on growing annotation sets. Continual learning directly approaches this problem, with the ultimate goal of devising methods where a neural network effectively learns relevant patterns for new (unseen) classes without significantly altering its performance on previously learned ones. In this paper, we address the problem of continual learning for video data. We introduce PIVOT, a novel method that leverages the extensive knowledge in pre-trained models from the image domain, thereby reducing the number of trainable parameters and the associated forgetting. Unlike previous methods, ours is the first approach that effectively uses prompting mechanisms for continual learning without any in-domain pre-training. Our experiments show that PIVOT improves state-of-the-art methods by a significant 27% on the 20-task ActivityNet setup.
translated by 谷歌翻译
Recent increases in computing power have enabled the numerical simulation of many complex flow problems that are of practical and strategic interest for naval applications. A noticeable area of advancement is the computation of turbulent, two-phase flows resulting from wave breaking and other multiphase flow processes such as cavitation that can generate underwater sound and entrain bubbles in ship wakes, among other effects. Although advanced flow solvers are sophisticated and are capable of simulating high Reynolds number flows on large numbers of grid points, challenges in data analysis remain. Specifically, there is a critical need to transform highly resolved flow fields described on fine grids at discrete time steps into physically resolved features for which the flow dynamics can be understood and utilized in naval applications. This paper presents our recent efforts in this field. In previous works, we developed a novel algorithm to track bubbles in breaking wave simulations and to interpret their dynamical behavior over time (Gao et al., 2021a). We also discovered a new physical mechanism driving bubble production within breaking wave crests (Gao et al., 2021b) and developed a model to relate bubble behaviors to underwater sound generation (Gao et al., 2021c). In this work, we applied our bubble tracking algorithm to the breaking waves simulations and investigated the bubble trajectories, bubble creation mechanisms, and bubble acoustics based on our previous works.
translated by 谷歌翻译
在整个幻灯片成像中,基于苏木精和曙红(H&E)(H&E)和免疫组织化学(IHC)的常用染色技术染色了组织景观的不同方面。在检测转移的情况下,IHC提供了一个独特的读数,病理学家很容易解释。但是,IHC是一种更昂贵的方法,在所有医疗中心都不可用。因此,使用深层神经网络从H&E生成IHC图像成为一种有吸引力的替代方法。诸如Cyclegans之类的深层生成模型学习两个图像域之间的语义一致映射,同时模拟每个域的纹理特性。因此,它们是污渍转移应用程序的合适选择。但是,它们仍然完全无监督,并且没有在染色转移中执行生物学一致性的机制。在本文中,我们提出了以歧视者区域形式向自行车行驶的扩展。这使Cyclegan可以从未配对的数据集中学习,此外,还希望对象有部分注释,希望它能强制执行一致性。我们在整个幻灯片图像上介绍了用例,其中IHC染色为转移细胞提供了实验生成的信号。我们证明了我们的方法优于先前的艺术在两个数据集上对组织病理学瓷砖的污渍转移中的优越性。我们的代码和型号可在https://github.com/jcboyd/miccai2022-Roigan上找到。
translated by 谷歌翻译
在各种领域,包括搜索和救援,自动驾驶汽车导航和侦察的各个领域,形成不断变化的场景的非线图像(NLOS)图像的能力可能具有变革性。大多数现有的活性NLOS方法使用针对继电器表面并收集回返回光的时间分辨测量的脉冲激光来照亮隐藏场景。流行的方法包括对垂直壁上的矩形网格的栅格扫描,相对于感兴趣的数量,以产生共聚焦测量集合。这些固有地受到激光扫描的需求的限制。避免激光扫描的方法将隐藏场景的运动部件作为一个或两个点目标。在这项工作中,基于更完整的光学响应建模,但仍没有多个照明位置,我们演示了运动中对象的准确重建和背后的固定风景的“地图”。计数,本地化和表征运动中隐藏物体的大小,结合固定隐藏场景的映射的能力,可以大大提高各种应用中的室内情况意识。
translated by 谷歌翻译
CT灌注(CTP)是一项体检,用于测量对比度溶液通过像素逐像素的大脑通过大脑的通过。目的是为缺血性病变迅速绘制“灌注图”(即脑血体积,脑血流量和峰值的时间),并能够区分核心和甲瘤区域。在缺血性中风的背景下,精确而快速的诊断可以确定脑组织的命运,并在紧急情况下指导干预和治疗。在这项工作中,我们介绍了UnitObrain数据集,这是CTP的第一个开源数据集。它包括一百多名患者的队列,并伴随着患者元数据和最新算法获得的地面真相图。我们还建议使用欧洲图书馆ECVL和EDDL进行图像处理和开发深度学习模型,提出了一种基于神经网络的新型算法。神经网络模型获得的结果与地面真相相匹配,并为所需数量的CT地图的潜在子采样开辟了道路,这对患者施加了重辐射剂量。
translated by 谷歌翻译
我们介绍和分析结构化的随机零订单下降(S-SZD),这是一种有限的差异方法,该方法在一组$ l \ leq d $正交方向上近似于随机梯度,其中$ d $是环境空间的维度。这些方向是随机选择的,并且可能在每个步骤中发生变化。对于平滑的凸功能,我们几乎可以确保迭代的收敛性和对$ o(d/l k^{ - c})$的功能值的收敛速率,每$ c <1/2 $,这是任意关闭的就迭代次数而言,是随机梯度下降(SGD)。我们的界限还显示了使用$ l $多个方向而不是一个方向的好处。对于满足polyak-{\ l} ojasiewicz条件的非convex函数,我们在这种假设下建立了随机Zeroth Order Order Order算法的第一个收敛速率。我们在数值模拟中证实了我们的理论发现,在数值模拟中,满足假设以及对超参数优化的现实世界问题,观察到S-SZD具有很好的实践性能。
translated by 谷歌翻译
最近,自我监督的神经语言模型最近已应用于生物序列数据,进步的结构,功能和突变效应预测。一些蛋白质语言模型,包括MSA变压器和Alphafold的Evoformer,将进化相关蛋白的多个序列比对作为输入。 MSA Transformer的行专注的简单组合导致了最新的无监督结构接触预测。我们证明,MSA变压器柱浓度的简单和通用组合与MSA中序列之间的锤距距离密切相关。因此,基于MSA的语言模型编码详细的系统发育关系。我们进一步表明,这些模型可以将编码功能和结构约束的共同进化信号与反映历史意义的系统发育相关性分开。为了评估这一点,我们从POTTS模型中生成了在天然MSA训练的POTTS模型的合成MSA。我们发现,当使用MSA变压器与推断的POTTS模型时,无监督的接触预测对系统发育噪声的弹性更大。
translated by 谷歌翻译